19 resultados para Reator continuamente agitado

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il cambiamento organizzativo costituisce oggi un elemento fondamentale per la sopravvivenza dell'impresa. Un approccio al cambiamento è costituito dal Total Quality Management (o Qualità Totale). La Qualità Totale pone il cliente e la sua soddisfazione al centro delle decisioni aziendali. Ciò presuppone un coinvolgimento di tutto il personale dell'impresa nell'attività di miglioramento continuo. Un sistema di gestione della Qualità Totale è rappresentato dalla Lean Manufacturing. Infatti, i punti essenziali della Lean Manufacturing sono il focus sul cliente, l'eliminazione degli sprechi ed il miglioramento continuo. L'obiettivo è la creazione di valore per il cliente e, quindi, l'eliminazione di ogni forma di spreco. E' necessario adottare un'organizzazione a flusso e controllare continuamente il valore del flusso nell'ottica del miglioramento continuo. Il Lead Time costituisce l'indicatore principale della Lean Manufacturing.I risultati principali della Lean Manufacturing sono: aumento della produttività, miglioramento della qualità del prodotto, riduzione dei lead time e minimizzazione delle scorte ed aumento della rotazione. Tutto ciò è applicato ad un caso aziendale reale. Il caso si compone di un'analisi dei processi di supporto, dell'analisi del capitale circolante (analisi dello stock e del flusso attuale e futuro) e dell'analisi del sistema di trasporto, con l'obiettivo di ridurre il più possibile il lead time totale del sistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo studio sviluppato nella tesi fa riferimento all’ampio database sperimentale raccolto presso il sito campione di Treporti (VE), nell’ambito di un progetto di ricerca finalizzato alla caratterizzazione geotecnica del complesso sottosuolo della Laguna Veneta. Il sottosuolo lagunare è infatti caratterizzato da una fitta alternanza di sedimenti a matrice prevalentemente limosa, dal comportamento intermedio fra sabbie e argille. Il progetto di ricerca prevedeva la realizzazione di una vasta campagna di indagini in sito, articolata in più fasi e integrata da un programma sperimentale di laboratorio; nell’area in esame è stato inoltre costruito un rilevato sperimentale in vera grandezza, continuamente monitorato con una sofisticata strumentazione per circa quattro anni, fino alla sua graduale rimozione. Il lavoro di tesi proposto riguarda l’analisi dei dati provenienti dalle numerose prove dilatometriche (DMT) e con piezocono (CPTU) effettuate a Treporti, con particolare riferimento alle prove di tipo sismico (SDMT e SCPTU) realizzate sia prima della costruzione del rilevato sia a seguito della rimozione dello stesso. Rispetto alla prove “tradizionali”, le prove sismiche permettono anche la misura della velocità delle onde di taglio (Vs), la cui conoscenza è richiesta anche dalle recenti Norme Tecniche delle Costruzioni e della quale è possibile risalire agevolmente al modulo di rigidezza elastico a piccolissime deformazioni (G0). L’enorme database raccolto in questo sito offre tra l’altro l’interessante ed inusuale possibilità di mettere a confronto dati ricavati da prove dilatometriche e con piezocono relative a verticali adiacenti, svolte in diverse fasi della storia di carico imposta al sottosuolo dell’area mediante la costruzione del rilevato. L’interpretazione dei dati penetrometrici e dilatometrici è stata fatta utilizzando i più recenti approcci interpretativi proposti nella letteratura del settore. È importante sottolineare che la possibilità di classificare e stimare i parametri meccanici del sottosuolo lagunare a partire da prove diverse ha permesso una valutazione critica delle procedure interpretative adottate e, in taluni casi, ha messo in evidenza i limiti di alcuni approcci, pur se limitatamente al caso specifico in esame. In alcuni casi, grazie all’uso integrato delle prove dilatometriche e penetrometriche è stato possibile mettere a punto specifiche correlazioni alternative a quelle esistenti, calibrate sui dati sperimentali di Treporti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il video streaming in peer-to-peer sta diventando sempre più popolare e utiliz- zato. Per tali applicazioni i criteri di misurazione delle performance sono: - startup delay: il tempo che intercorre tra la connessione e l’inizio della ripro- duzione dello stream (chiamato anche switching delay), - playback delay: il tempo che intercorre tra l’invio da parte della sorgente e la riproduzione dello stream da parte di un peer, - time lag: la differenza tra i playback delay di due diversi peer. Tuttavia, al giorno d’oggi i sistemi P2P per il video streaming sono interessati da considerevoli ritardi, sia nella fase di startup che in quella di riproduzione. Un recente studio su un famoso sistema P2P per lo streaming, ha mostrato che solitamente i ritardi variano tra i 10 e i 60 secondi. Gli autori hanno osservato anche che in alcuni casi i ritardi superano i 4 minuti! Si tratta quindi di gravi inconvenienti se si vuole assistere a eventi in diretta o se si vuole fruire di applicazioni interattive. Alcuni studi hanno mostrato che questi ritardi sono la conseguenza della natura non strutturata di molti sistemi P2P. Ogni stream viene suddiviso in blocchi che vengono scambiati tra i peer. A causa della diffusione non strutturata del contenuto, i peer devono continuamente scambiare informazioni con i loro vicini prima di poter inoltrare i blocchi ricevuti. Queste soluzioni sono estremamente re- sistenti ai cambiamenti della rete, ma comportano una perdita notevole in termini di prestazioni, rendendo complicato raggiungere l’obiettivo di un broadcast in realtime. In questo progetto abbiamo lavorato su un sistema P2P strutturato per il video streaming che ha mostrato di poter offrire ottimi risultati con ritardi molto vicini a quelli ottimali. In un sistema P2P strutturato ogni peer conosce esattamente quale blocchi inviare e a quali peer. Siccome il numero di peer che compongono il sistema potrebbe essere elevato, ogni peer dovrebbe operare possedendo solo una conoscenza limitata dello stato del sistema. Inoltre il sistema è in grado di gestire arrivi e partenze, anche raggruppati, richiedendo una riorganizzazione limitata della struttura. Infine, in questo progetto abbiamo progettato e implementato una soluzione personalizzata per rilevare e sostituire i peer non più in grado di cooperare. Anche per questo aspetto, l’obiettivo è stato quello di minimizzare il numero di informazioni scambiate tra peer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’azienda committente vuole ampliare la possibilità di accedere al suo database, sia dall’esterno che dall’interno, non solamente da parte di un unico utente amministratore, ma anche da tutti gli agenti distribuiti sul territorio nazionale e tutti gli impiegati degli uffici. Si vuole inoltre creare un sistema di notifiche via email che permetta a tutti gli utenti (agenti) registrati di avere in tempo reale informazioni sempre aggiornate riguardo i propri clienti. La ditta si chiama Tropical Lane S.p.A. e vuole realizzare questo progetto per rendere maggiormente accessibili le informazioni per i propri agenti, distribuiti nelle varie regioni italiane, direttamente tramite un loro dispositivo mobile, come smartphone o tablet, senza dover necessariamente telefonare continuamente in ditta dove è presente una segretaria che svolge solamente questa mansione. In questo modo si cerca di velocizzare la procedura di accesso ai dati così da liberare una risorsa utile per lo svolgimento di altre funzioni interne. Si è deciso quindi di creare un sito web, basato su tecnologia Active Server Pages e interfacciato al database aziendale, che sia fruibile dall’esterno della rete aziendale e sul quale vengono mostrati i dati, organizzati in modo da essere facilmente comprensibili e visualizzabili da tutti. La realizzazione del sito è stata effettuata utilizzando notepad++ sia per le pagine ASP che per le poche pagine di HTML statico presenti. Gli script sono stati realizzati in linguaggio Javascript, compatibile con le specifiche dei browser più diffusi. Il sito è supportato da un unico database realizzato in precedenza con Microsoft SQL ed integrato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'elimodellismo è una passione che lega un numero sempre maggiore di persone: nuove manifestazioni vengono organizzate in tutto il mondo e nuove discipline vengono continuamente proposte. Questo è il caso della disciplina speed in cui i piloti si sfidano a far volare i propri elimodelli alle massime velocità. L'azienda SAB Heli Division s.r.l., come produttore di pale per elimodelli e della serie di elicotteri Goblin, ha interesse a sostenere i propri piloti con le proprie macchine, facendo sì che siano veloci e competitive. Per questo ha voluto sviluppare una pala che, montata sul proprio elicottero specifico per questa disciplina, possa vincere la concorrenza con l'ambizione di stabilire un primato di velocità a livello internazionale. Il problema è quindi quello di sviluppare una pala che ottimizzasse al meglio le caratteristiche dell'elimodello Goblin Speed, in modo da sfruttare al meglio la potenza installata a bordo. Per via dei limiti sui mezzi a disposizione l'ottimizzazione è stata portata avanti mediante la teoria dell'elemento di pala. Si è impostato il calcolo determinando la potenza media su una rotazione del rotore in volo avanzato a 270 km/h e quindi attraverso gli algoritmi di ottimizzazione globale presenti nel codice di calcolo MATLAB si è cercato il rotore che permettesse il volo a tale velocità al variare del raggio del disco del rotore, dello svergolamento della pala e della distribuzione di corda lungo la pala. Per far sì che si abbiano risultati più precisi si sono sfruttati alcuni modelli per stimare il campo di velocità indotta o gli effetti dello stallo dinamico. Inoltre sono state stimate altre grandezze di cui non sono noti i dati reali o di cui è troppo complesso, per le conoscenze a disposizione, avere un dato preciso. Si è tuttavia cercato di avere stime verosimili. Alcune di queste grandezze sono le caratteristiche aerodinamiche del profilo NACA 0012 utilizzato, ottenute mediante analisi CFD bidimensionale, i comandi di passo collettivo e ciclico che equilibrano il velivolo e la resistenza aerodinamica dell'intero elimodello. I risultati del calcolo sono stati confrontati innanzitutto con le soluzioni già adottate dall'azienda. Quindi si è proceduto alla realizzazione della pala e mediante test di volo si è cercato di valutare le prestazioni della macchina che monta la pala ottenuta. Nonostante le approssimazioni adottate si è osservato che la pala progettata a partire dai risultati dell'ottimizzazione rispecchia la filosofia adottata: per velocità paragonabili a quelle ottenute con le pale prodotte da SAB Heli Division, le potenze richieste sono effettivamente inferiori. Tuttavia non è stato possibile ottenere un vero e proprio miglioramento della velocità di volo, presumibilmente a causa delle stime delle caratteristiche aerodinamiche delle diverse parti del Goblin Speed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il problema relativo alla predizione, la ricerca di pattern predittivi all‘interno dei dati, è stato studiato ampiamente. Molte metodologie robuste ed efficienti sono state sviluppate, procedimenti che si basano sull‘analisi di informazioni numeriche strutturate. Quella testuale, d‘altro canto, è una tipologia di informazione fortemente destrutturata. Quindi, una immediata conclusione, porterebbe a pensare che per l‘analisi predittiva su dati testuali sia necessario sviluppare metodi completamente diversi da quelli ben noti dalle tecniche di data mining. Un problema di predizione può essere risolto utilizzando invece gli stessi metodi : dati testuali e documenti possono essere trasformati in valori numerici, considerando per esempio l‘assenza o la presenza di termini, rendendo di fatto possibile una utilizzazione efficiente delle tecniche già sviluppate. Il text mining abilita la congiunzione di concetti da campi di applicazione estremamente eterogenei. Con l‘immensa quantità di dati testuali presenti, basti pensare, sul World Wide Web, ed in continua crescita a causa dell‘utilizzo pervasivo di smartphones e computers, i campi di applicazione delle analisi di tipo testuale divengono innumerevoli. L‘avvento e la diffusione dei social networks e della pratica di micro blogging abilita le persone alla condivisione di opinioni e stati d‘animo, creando un corpus testuale di dimensioni incalcolabili aggiornato giornalmente. Le nuove tecniche di Sentiment Analysis, o Opinion Mining, si occupano di analizzare lo stato emotivo o la tipologia di opinione espressa all‘interno di un documento testuale. Esse sono discipline attraverso le quali, per esempio, estrarre indicatori dello stato d‘animo di un individuo, oppure di un insieme di individui, creando una rappresentazione dello stato emotivo sociale. L‘andamento dello stato emotivo sociale può condizionare macroscopicamente l‘evolvere di eventi globali? Studi in campo di Economia e Finanza Comportamentale assicurano un legame fra stato emotivo, capacità nel prendere decisioni ed indicatori economici. Grazie alle tecniche disponibili ed alla mole di dati testuali continuamente aggiornati riguardanti lo stato d‘animo di milioni di individui diviene possibile analizzare tali correlazioni. In questo studio viene costruito un sistema per la previsione delle variazioni di indici di borsa, basandosi su dati testuali estratti dalla piattaforma di microblogging Twitter, sotto forma di tweets pubblici; tale sistema include tecniche di miglioramento della previsione basate sullo studio di similarità dei testi, categorizzandone il contributo effettivo alla previsione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Medicina Nucleare è possibile ottenere immagini funzionali grazie all’iniezione nel paziente di un radiofarmaco. Quello più utilizzato nelle procedure diagnostiche di Medicina Nucleare è il 99mTc, un gamma emettitore con tempo di dimezzamento di circa sei ore. Attualmente, questo nuclide è prodotto attraverso generatori di 99Mo-99mTc, sfruttando il decadimento β- del 99Mo. Da diversi anni, però, si cerca in tutto il mondo una soluzione alternativa alla produzione di 99mTc, poiché il 99Mo si ottiene in reattori nucleari a partire dalla reazione di fissione del 235U, ma tali reattori sono stati quasi tutti costruiti più di cinquanta anni fa e necessitano continuamente di spegnimenti prolungati e riparazioni. L’alternativa più accreditata è quella relativa alla produzione diretta di 99mTc in ciclotrone attraverso l’irraggiamento di 100Mo con protoni. Il problema principale risiede nella scelta della forma chimica che contenga il 100Mo e del tipo di target da irraggiare. Quest’ultimo deve resistere ad alte correnti e a lunghi tempi di irraggiamento per ottenere quantità di 99mTc sufficienti a soddisfare almeno il fabbisogno del centro ospedaliero in cui è prodotto. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico S.Orsola-Malpighi, è basato sulla realizzazione di un target a basso costo di triossido Molibdeno arricchito per la produzione diretta di 99mTc. Si sono inoltre valutate le impurezze e l’attività del nuclide di nostro interesse a seguito di irraggiamenti nel ciclotrone PETtrace.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dall'inizio del 2013 il Large Hadron Collider (LHC) non produce dati (fase di shut down) per effettuare operazioni di consolidamento e manutenzione. Nella primavera del 2015 ritornerà in funzione con energia e luminosità maggiori. La fase di shut down è sfruttata anche per migliorare le prestazioni dei vari rivelatori che operano in LHC, così che possano acquisire dati in modo efficiente alla riaccensione. Per quanto riguarda il monitor di luminosità LUCID, che fa parte dell'esperimento ATLAS, sono stati sostituiti i rivelatori principali (i fotomoltiplicatori) e l'elettronica. Numerosi considerazioni rispetto alla durata dei nuovi sensori nell'ambiente di LHC tra il 2015 e il 2018, nonché sulla misura della luminosità durante il run II, hanno portato alla conclusione che i nuovi PMT dovranno operare ad un guadagno di math 10^5. E' stato dunque necessario, una volta identificati ed acquistati i nuovi sensori, qualificarne il funzionamento individuale e determinare la tensione di lavoro corrispondente al guadagno desiderato. La prima parte di tali misure, effettuate interamente a Bologna, riguarda la misura della corrente di buio e l'andamento della dipendenza del guadagno dei PMT dalla tensione applicata. La seconda parte riguarda invece lo studio di diversi metodi per le misure del guadagno assoluto, e la loro applicabilità durante la fase di funzionamento di LHC. Durante la presa dati, infatti, sarà essenziale essere in grado di monitorare continuamente il guadagno di ciascun sensore al fine di mantenerlo costante. Le misure di guadagno assoluto presentate in questa tesi sono state effettuate in parte a Bologna, sfruttando il metodo del singolo fotoelettrone, e in parte presso il CERN, utilizzando una sorgente radioattiva, il Bismuto 207.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Digital Marketing si occupa di tutto quello che possiamo fare, grazie ad Internet, per far crescere il business aziendale. Le tecnologie informatiche negli ultimi anni stanno producendo degli effetti pervasivi sulle infrastrutture delle imprese, sui prodotti, sui mercati e sui consumatori, con una rilevanza tale all'interno di un periodo di tempo relativamente limitato che non è possibile riscontrare in nessuna epoca passata. Coinvolgono le relazioni tra imprese, i mercati dei consumatori, le relazioni tra gli stessi consumatori, le singole componenti del marketing mix (prodotto, prezzo, comunicazione, distribuzione) e le loro modalità di interazione e di gestione all'interno della strategia di marketing dell'impresa. L'evoluzione del mondo digitale ha portato imprese e consumatori a dover affrontare un cambiamento radicale del paradigma di marketing e comunicazione che vede la relazione e l'interazione al centro di uno scambio di messaggi bilaterali altamente personalizzati e costanti. Il marketing non è un processo lineare ma circolare, in cui ascolto e comprensione dei bisogni e delle forze che agiscono sui mercati, progettazione dei prodotti o servizi in grado di rispondere alle nuove opportunità individuate, si integrano e cambiano continuamente. Quando si parla di Internet e commercio non si pensa solo all'e-commerce, ovvero all'acquisto e al pagamento del prodotto su Internet. La Rete ha acquisito un'influenza basilare in tutte le fasi precedenti all'acquisto infatti sul Web si attuano attività di ricerca e raccolta di informazioni, selezione, comparazione e perfezionamento che precedono la decisione d'acquisto e che specialmente per i beni durevoli e dall'alto valore monetario rappresentano un momento cruciale del processo d'acquisto. Questo fenomeno ha condizionato uno scenario di mercato in cui si sono abbassate le barriere di accesso all'informazione, si sono ridotti i tempi di relazione tra le persone e tra le persone e l'azienda e in alcuni settori sono crollare le barriere all'ingresso permettendo, attraverso la creazione di attività online di raggiungere e instaurare una relazione diretta. Questo elaborato si propone come un'analisi del digital marketing. Suddiviso in sei capitoli vuole dare una soddisfacente panoramica di questo nuovo marketing.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elevato consumo e il limitato tasso di rimozione dei farmaci favoriscono l’entrata di questi composti, biologicamente attivi, nell’ambiente acquatico. Essendo continuamente aggiunti, più velocemente di quanto si degradino, tali sostanze diventano pseudo-persistenti nell’ambiente, e gli organismi acquatici possono risultarne esposti a lungo termine. Per limitare gli effetti avversi di ambienti inquinanti, gli organismi più resistenti hanno sviluppato vari meccanismi di protezione cellulare, fra cui il sistema denominato Multixenobiotic resistance (MXR). Tale meccanismo agisce da sistema di detossificazione attraverso l’azione di specifici trasportatori transmembrana quali la P-glicoproteina (Pgp) e la Multidrug Resistance-associated Protein (MRP). Questi, codificati rispettivamente dai prodotti genici ABCB e ABCC, favorendo l’efflusso attivo di composti tossici, prevengono il loro accumulo cellulare e, dunque, i loro potenziali effetti dannosi. Tuttavia, alcune sostanze possono influenzare questo delicato meccanismo, esponendo gli organismi acquatici agli effetti tossici degli inquinanti. In questo lavoro di Tesi è stato condotto uno studio sperimentale in vitro volto a determinare i possibili effetti dell’antidepressivo fluoxetina (FX), dell’antiepilettico carbamazepina (CBZ) e del β-bloccante propranololo (PROP) sul meccanismo MXR, in emociti di Mytilus galloprovincialis. In particolare si è valutata l’azione di questi farmaci sulla funzionalità dei trasportatori e/o sulla modulazione trascrizionale. I risultati ottenuti hanno dimostrato l’importante effetto del PROP, della CBZ e della FX sul sistema MXR. In particolare, il PROP e la CBZ alterano tale sistema, agendo, principalmente, sui livelli di espressione del prodotto genico ABCB, nonostante influenzino anche i livelli di ABCC. La FX, invece, non porta ad alterazioni dell’attività MXR totale, sebbene induca variazioni sui livelli di espressione di ABCB. In conclusione, le analisi dei profili trascrizionali dimostrano che la proteina predominante nell’efflusso di tali contaminanti negli emociti di M. galloprovincialis è la P-glicoproteina e che le variazioni dell’attività MXR osservate in questa Tesi sono il risultato combinato dell’azione dei farmaci analizzati come modulatori trascrizionali e come substrati da parte dei trasportatori MXR.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il turismo è un prodotto legato all’esperienza dell’utente, poiché il viaggio può essere definito come la totalità delle esperienze vissute. Inoltre, al contrario dei beni tangibili, che solitamente richiedono al più una singola decisione, il turismo è un sistema di consumo nel quale gli utenti sono continuamente coinvolti nel processo decisionale. Le nuove tecnologie possono intensificare l’esperienza del turista, non solo rendendo le prenotazioni più semplici o rimpiazzando una guida cartacea con una multimediale, ma anche permettendo agli utenti di immergersi in siti remoti ed inaccessibili, oltre alla semplice esperienza multimediale. L’informazione è comunemente riconosciuta come attributo fondamentale del turismo, per questo motivo l’innovazione attraverso l’ICT ha un impatto diretto che può essere riscontrato in tutto il processo di produzione del turismo. I turisti dipendono dalle informazioni rintracciabili sulle destinazioni. Queste informazioni li aiutano a prendere decisioni riguardanti il proprio viaggio, poiché i servizi turistici in genere non possono essere “provati” prima di effettuarli in maniera vera e propria. Per questo i nuovi dispositivi mobili come smartphone e tablet sono diventati importanti piattaforme digitali che permettono l’interazione tra fornitori di servizi e turisti e tra turisti ed altri turisti. I viaggiatori cercano costantemente informazioni per ridurre il grado di incertezza e supportare il processo decisionale. Gli smartphone, che per loro natura non sono legati ad una posizione fissa, hanno un grande potenziale nell’assistere i viaggiatori nella loro fase di ricerca delle informazioni. In questa tesi si cerca di fornire una rassegna dello stato dell’arte per quel che riguarda le applicazioni mobili legate al turismo, attraverso una classificazione tassonomica divisa per servizi e funzionalità. Vengono inoltre analizzate le tecnologie abilitanti presenti nei moderni dispositivi. Nella seconda parte si analizzerà il caso di studio relativo alle app principali delle Capitali dell’UE, mettendo in relazione i dati delle affluenze turistiche ed i download.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi si studieranno le acque superficiali e sotterranee del fiume Marecchia, che sono continuamente monitorate da ARPA allo scopo di mantenere l'ambiente idrologico in buono stato. Una particolare attenzione è stata riposta nell'analisi dell'azoto e dei suoi composti, poiché nella conoide del Marecchia si è sempre osservata una forte presenza di questo tipo di composti, che negli anni hanno causato forti danni all'ambiente. Per raggiungere tale obiettivo, è stato fondamentale ripercorrere gli andamenti dei parametri nel corso degli anni, ricorrendo a dati forniti da ARPA e analizzando direttamente campioni raccolti in campo. Nelle acque analizzate sono state riscontrate varie anomalie, soprattutto nel sito in corrispondenza di via Tonale, che potrebbero essere ricondotte al grave problema dell'intrusione dell'acqua di mare in falda, e degli apporti di tali elementi durante le mareggiate; nel sito campionato nei pressi di Vergiano sono state riscontrate concentrazioni di solfati, cloruri e nitrati in aumento, che potrebbero essere causati da scarichi diretti in falda o nelle acque superficiali, oppure dilavamento dei campi da parte dell'acqua piovana. Anche le concentrazioni di nitriti, determinate nei punti di campionamento nel Torrente Ausa, superano notevolmente la concentrazione limite di 0.5 mg/l e tale effetto potrebbe essere causato da un uso indiscriminato di insetticidi, diserbanti e pesticidi composti da elementi ricchi di azoto, oppure dagli scarichi diretti di colorifici e industrie immessi direttamente nel torrente da parte dello stato di San Marino. Quanto evidenziato con questo studio potrebbe essere un incentivo per gli enti regionali, provinciali e comunali per migliorare il monitoraggio di alcune zone del fiume Marecchia e per ottimizzare i sistemi di gestione del territorio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il progetto è il proseguimento di una tesi di laurea1 in cui si è studiato un metodo di analisi della salute della pelle non invasivo. A tale scopo si è approfondito il tema della spettroscopia d'impedenza ed è stato realizzato un sistema per la loro misura. Questo sistema prevede l'utilizzo di una parte analogica formata da un generatore di segnale sinusoidale a frequenza variabile e la circuiteria per estrarre i valori efficaci di tensione e corrente e il valore di fase. La parte digitale, invece, condiziona il segnale del blocco analogico agendo su trimmer digitali, acquisisce i dati e li trasmette tramite la UART. Lo strumento effettuava le misurazioni ed inviava continuamente i dati grezzi al computer, tramite un convertitore UART/USB, risultando poco versatile. L'obiettivo del progetto è realizzare una piattaforma software che comunichi con l'hardware, permettendo la configurazione dello strumento e la manipolazione dei dati grezzi ricevuti, svincolando quindi l'utente dai problemi di basso livello. Si è studiato un protocollo di comunicazione che permette la trasmissione di maggiore informazione e sono stati scelti dei comandi mnemonici che lo strumento possa facilmente interpretare. Il progetto prevede quindi una prima fase di modifica del vecchio firmware, in modo che il microcontrollore possa leggere e comprendere i dati ricevuti tramite la UART. Nella seconda fase si è sviluppato il software utilizzando il linguaggio di programmazione Java. Lo sviluppo comprende lo studio delle librerie grafiche offerte da JavaFX (soprattutto per la rappresentazione dei dati grezzi in grafici a due assi), di un metodo di gestione e salvataggio su disco delle impostazioni del sistema, della comunicazione seriale e infine del sistema software nella sua completezza. Alcune prove sperimentali sono infine state svolte per verificare la funzionalità dei due sistemi, firmware e software.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il crescente fabbisogno energetico mondiale, dovuto essenzialmente al rapido incremento di popolazione originatosi nel secolo scorso, unitamente alla necessità di ridurre le emissioni di anidride carbonica, porta a ricercare continuamente nuove fonti primarie di energia nonché metodi innovativi per il recupero di quest’ultima da materiali di scarto. I Cicli Rankine a fluido Organico (Organic Rankine Cycle) rappresentano in questo senso una tecnologia emergente capace di rivoluzionare il concetto di risparmio energetico. In questa tesi viene effettuato uno studio dettagliato della tecnologia ORC, che mira ad identificarne i principali vantaggi e le maggiori problematiche, con particolare riferimento ad un caso di studio concreto, riguardante l’installazione di un impianto di recupero energetico da fumi di combustione all’interno di uno stabilimento di produzione di nero di carbonio. Il cuore della tesi è rappresentato dall’individuazione e dall’analisi dettagliata delle alternative impiantistiche con cui il recupero energetico può essere realizzato. Per ognuna di esse, dopo una breve spiegazione, viene effettuato il calcolo dell’energia elettrica prodotta annualmente con l’ausilio un simulatore di processo. Successivamente vengono esposte le proposte ricevute dai fornitori interpellati per la fase di progettazione di base dell’impianto di recupero energetico. Nell’ultima parte della tesi viene presentata la simulazione fluidodinamica del camino di una delle linee di produzione dell’impianto di Ravenna, effettuata utilizzando un codice CFD e mirata alla verifica dell’effettiva quantità di calore recuperato dai fumi e dell’eventuale presenza di condense lungo la ciminiera. I risultati ottenuti mostrano che la tecnologia ORC, utilizzata per il recupero energetico in ambito industriale, possiede delle grosse potenzialità. La massimizzazione dei vantaggi derivanti dall’utilizzo di questi sistemi è tuttavia fortemente condizionata dalla capacità di gestire al meglio l’integrazione degli impianti di recupero all’interno dei processi produttivi esistenti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il consumo di prodotti da forno lievitati in Italia, è rilevante in occasione di alcune feste religiose quali Pasqua e Natale. Prodotti come il Panettone e Colomba hanno acquisito una diffusione nazionale ed internazionale. Questi prodotti sono ottenuti mediante procedure specifiche caratterizzate da passaggi simili. In ogni caso la loro preparazione parte dall’utilizzo di un lievito madre continuamente rinfrescato. Il lievito madre (o impasto acido) è una miscela di acqua e farina fermentata da un microbiota complesso che include LAB, che producono acido lattico, e lieviti fermentativi che producono CO2 ed etanolo con conseguenze sulle caratteristiche reologiche e organolettiche, soprattutto per il profilo aromatico del prodotto finale. In questo lavoro mi sono occupato di valutare l’evoluzione della composizione microbica della Colomba nelle diverse fasi del processo produttivo, cercando di individuare le relazioni fra il microbiota e alcune caratteristiche chimico-fisiche del prodotto. Il lavoro di caratterizzazione del microbiota del prodotto, effettuato nelle diverse fasi del processo produttivo, ha mostrato come l’impasto madre sia caratterizzato da una bassa biodiversità sia di LAB che di lieviti. I microorganismi dominanti risultano essere due biotipi della specie L. sanfranciscensis e, per i lieviti, un solo biotipo della specie T. delbrueckii, con la comparsa di C. humilis solo in un campione con una frequenza relativa molto bassa. Per quel che riguarda l’evoluzione del microbiota durante il processo produttivo, l’aggiunta del lievito commerciale altera i rapporti tra LAB/ lieviti dove le concentrazioni dei LAB, durante impastamento, si riducono incidendo sulle caratteristiche chimico-fisiche degli impasti stessi in termini di maggiori valori di pH e ridotto contenuto in acido lattico. L’aggiunta di S. cerevisiae e successiva lievitazione incidono significativamente sul profilo aromatico del prodotto, in termini di riduzione di acidi (acido acetico) e di esteri ed aumento di molecole: etanolo, alcol fenetilico, acetaldeide ed acetoino, derivanti del lievito commerciale.